맨위로가기

제스처 인식

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

제스처 인식은 사람의 신체 움직임을 감지하고 해석하여 컴퓨터에 명령을 전달하는 기술이다. 이는 온라인 및 오프라인 제스처로 구분되며, 터치리스 인터페이스를 구현하는 데 사용된다. 제스처 인식은 스마트폰, 노트북, 게임, TV 등 다양한 장치에 적용되며, 유선 장갑, 깊이 인식 카메라, 스테레오 카메라, 제스처 기반 컨트롤러, Wi-Fi 감지, 마우스 제스처 추적, 단일 카메라 등 다양한 입력 장치를 활용한다. 제스처 인식 알고리즘은 입력 데이터 유형에 따라 3D 모델 기반, 골격 기반, 외형 기반, 근전도(EMG) 기반 모델을 사용하며, 이미지 노이즈, 조명, 배경, 폐색 등 기술적 과제와 사회적 수용성, 피로도 등의 문제에 직면해 있다.

2. 제스처 유형

컴퓨터 인터페이스에서 제스처는 크게 두 가지 유형으로 구분된다.[13] 사용자가 실시간으로 조작할 수 있는 온라인 제스처와 상호 작용이 완료된 후에 처리되는 오프라인 제스처가 있다. 온라인 제스처에는 확대/축소 및 회전 등이 있고, 오프라인 제스처에는 상황 메뉴를 활성화하기 위한 원 그리기 등이 있다.[62]

2. 1. 온라인 제스처

온라인 제스처는 사용자의 동작에 따라 실시간으로 반응하는 직접 조작 제스처로, 화면의 객체를 확대하거나 회전하는 등의 동작이 이에 해당한다.[13][62]

2. 2. 오프라인 제스처

오프라인 제스처는 사용자가 객체와 상호 작용한 후에 처리되는 제스처이다. 상황 메뉴를 활성화하기 위한 원 그리기 동작이 그 예시이다.[13][62]

3. 터치리스 인터페이스

터치리스 사용자 인터페이스(TUI)는 키보드, 마우스, 화면을 터치하지 않고 신체 움직임이나 제스처를 통해 컴퓨터에 명령을 전송하는 방식이다.[63] 장치에 물리적으로 접촉하지 않고도 상호 작용할 수 있어 널리 보급되고 있다.

제스처 인식은 일반적으로 미들웨어에서 처리되며, 그 결과는 사용자 애플리케이션으로 전송된다.

제스처 인식 기능:

  • 더 정확한 인식
  • 높은 안정성
  • 장치 잠금 해제를 위한 시간 절약

3. 1. 터치리스 기술의 종류

스마트폰, 노트북, 게임, TV, 음악 장비 등에서 터치리스 인터페이스 기술이 활용된다.[15]

스마트폰의 블루투스 연결을 이용해 회사 방문자 관리 시스템을 활성화하는 것은 터치리스 인터페이스의 한 예시이다. 이는 코로나19 팬데믹 상황에서 위생적인 인터페이스를 제공하여 편리함을 더한다.[15]

4. 입력 장치

사람의 움직임을 추적하고, 수행 중인 제스처를 파악하는 것은 다양한 도구를 통해 가능하다. 운동 사용자 인터페이스(KUIs)는 사용자가 물체나 신체의 움직임을 통해 컴퓨팅 장치와 상호 작용할 수 있게 하는 새로운 형태의 사용자 인터페이스이다. KUI의 예로는 실체적 사용자 인터페이스, Wii, 마이크로소프트의 Kinect와 같은 모션 인식 게임, 기타 인터랙티브 프로젝트가 있다.[1]

이미지/비디오 기반 제스처 인식에 대한 많은 연구가 진행되었지만, 구현에 사용되는 도구와 환경에는 차이가 있다. 주요 입력 장치는 다음과 같다.


  • '''유선 장갑''': 손의 움직임, 위치, 회전, 손가락 굽힘을 감지하고 사용자에게 촉각 피드백을 제공한다.
  • '''깊이 인식 카메라''': 특수 카메라를 사용하여 깊이 맵을 생성하고 3D 표현을 근사하여 손 제스처를 감지한다.
  • '''스테레오 카메라''': 두 대의 카메라를 사용하여 3D 표현을 얻고, 6D-비전을 통해 제스처를 직접 감지한다.
  • '''제스처 기반 컨트롤러''': 신체 확장으로 작동하여 가상 현실증강 현실에서 사용자와 환경 간의 상호 작용을 지원한다.
  • '''Wi-Fi 감지''': Wi-Fi 신호를 이용하여 제스처를 인식한다.
  • '''마우스 제스처 추적''': 마우스 움직임과 가속도 변화를 분석하여 제스처를 파악하고, 떨림이나 부주의한 움직임을 보정한다.
  • '''단일 카메라''': 표준 2D 카메라를 사용하며, 소프트웨어 기반 기술을 통해 제스처 인식의 한계를 극복한다.


이 외에도 스마트 발광 큐브 센서를 사용하여 손, 손가락, 주변 물체를 감지하고 데이터를 처리하여 음악 및 사운드 합성 등에 활용할 수 있다.[29]

4. 1. 유선 장갑

유선 장갑은 자기 또는 관성 추적 장치를 사용하여 손의 위치와 회전에 대한 정보를 컴퓨터에 제공한다. 일부 장갑은 손가락 굽힘을 높은 정확도(5-10도)로 감지하거나 사용자에게 촉각 피드백을 제공하여 촉각의 감각을 시뮬레이션하기도 한다.[17] 최초의 상업용 손 추적 장갑형 장치는 DataGlove였으며, 손의 위치, 움직임, 손가락 굽힘을 감지할 수 있었다.[17] 이 장치는 손등을 따라 내려오는 광섬유 케이블을 사용한다. 빛 펄스가 생성되고 손가락이 구부러지면 작은 균열을 통해 빛이 새어 나가 손실이 등록되어 손의 자세를 근사적으로 추정할 수 있다.

4. 2. 깊이 인식 카메라

구조광 또는 비행시간 거리 측정 방식 카메라와 같은 특수 카메라를 사용하여 단거리에서 카메라를 통해 보이는 것의 깊이 맵을 생성하고, 이 데이터를 사용하여 보이는 것의 3D 표현을 근사할 수 있다. 이는 단거리 기능으로 인해 손 제스처 감지에 효과적이다.[18]

4. 3. 스테레오 카메라

서로 관계가 알려진 두 대의 카메라를 사용하여 3차원 표현을 얻을 수 있다.[19] 카메라의 관계를 파악하기 위해 렉시안 스트라이프 또는 적외선 이미터와 같은 위치 참조를 사용할 수 있다.[19] 6D-비전을 통해 직접적인 모션 측정을 하여 제스처를 직접 감지할 수 있다.

4. 4. 제스처 기반 컨트롤러

제스처 기반 컨트롤러는 신체의 확장으로 작용하여 제스처를 수행할 때 해당 모션의 일부를 소프트웨어에서 편리하게 캡처할 수 있다. 새롭게 등장하는 제스처 기반 모션 캡처의 예로는 가상 현실(VR) 및 증강 현실(AR) 애플리케이션을 위해 개발되고 있는 골격 손 추적이 있다. 이러한 기술의 예는 추적 회사 uSens 및 Gestigon에서 보여지며, 사용자는 컨트롤러 없이 주변 환경과 상호 작용할 수 있다.[20][21]

4. 5. Wi-Fi 감지

Wi-Fi영어 감지[22]는 Wi-Fi 신호를 이용하여 제스처를 인식하는 기술이다.

4. 6. 마우스 제스처 추적

마우스의 움직임은 사람이 손으로 그리는 기호와 연관되어 있으며, 시간 경과에 따른 가속도 변화를 분석하여 제스처를 표현할 수 있다.[23][24][25] 관련 소프트웨어는 사람의 떨림이나 부주의한 움직임도 보정한다.[26][27][28]

4. 7. 단일 카메라

표준 2D 카메라는 다른 형태의 이미지 기반 인식이 적합하지 않은 환경에서 제스처 인식을 위해 사용될 수 있다. 이전에는 단일 카메라가 스테레오 카메라 또는 깊이 인식 카메라만큼 효과적이지 않을 수 있다고 생각했지만, 일부 회사들은 소프트웨어 기반 기술을 통해 이러한 한계를 극복하고 있다.

5. 알고리즘

입력 데이터 유형에 따라 제스처 해석 방식은 달라진다. 대부분 기술은 3차원 좌표계로 표현되는 주요 포인터를 사용하며, 이들의 상대적 움직임을 기반으로 제스처를 높은 정확도로 감지할 수 있다.[30]

신체 움직임을 해석하기 위해서는 일반적인 속성과 움직임이 표현할 수 있는 메시지에 따라 분류해야 한다. 예를 들어, 수화에서 각 제스처는 단어 또는 구문을 나타낸다.

제스처 인식에는 3D 모델 기반 접근 방식과 외형 기반 접근 방식이 있다.[31] 3D 모델 기반 방식은 신체 부위의 핵심 요소에 대한 3차원 정보를 사용하여 손바닥 위치나 관절 각도와 같은 중요 매개변수를 얻는다. 이 접근 방식은 계산량이 많아 실시간 분석을 위한 추가 기술 개발이 필요하다. 반면 외형 기반 시스템은 이미지나 비디오를 직접 해석하여 처리하기는 쉽지만, 인간-컴퓨터 상호 작용에 필요한 일반성이 부족하다.

근전도(EMG) 기반 모델은 근육에서 생성되는 전기 신호를 연구하여 팔 근육에서 수신된 데이터로 동작을 분류하고 외부 소프트웨어에 제스처를 입력할 수 있게 한다.[1]

5. 1. 3D 모델 기반 알고리즘

3D 모델 접근 방식은 체적 또는 골격 모델을 사용하거나, 두 가지를 결합하여 사용할 수 있다. 체적 접근 방식은 컴퓨터 애니메이션 산업과 컴퓨터 비전 분야에서 널리 사용되어 왔다. 모델은 일반적으로 NURBS 또는 다각형 메쉬와 같은 복잡한 3D 표면에서 생성된다.[31]

실제 손(왼쪽)은 3D 메쉬 버전(오른쪽)에서 정점과 선의 집합으로 해석되며, 소프트웨어는 제스처를 추론하기 위해 그 상대적인 위치와 상호 작용을 사용한다.


이 방법의 단점은 계산량이 매우 많고 실시간 분석 시스템이 아직 개발되지 않았다는 것이다. 현재로서는 단순한 기본 객체를 사람의 가장 중요한 신체 부위(예: 팔과 목의 원통, 머리의 구)에 매핑하고 이들이 서로 상호 작용하는 방식을 분석하는 것이 더 흥미로운 접근 방식일 것이다. 또한, 슈퍼 쿼드릭 및 일반화된 원통과 같은 일부 추상적인 구조는 신체 부위를 근사하는 데 더욱 적합할 수 있다.[31]

5. 2. 골격 기반 알고리즘

골격 기반 알고리즘은 관절 각도와 세그먼트 길이 등 단순화된 매개변수를 사용한다. 이는 신체의 골격 표현으로, 사람의 가상 골격을 계산하고 신체 부위를 특정 세그먼트에 매핑한다. 분석은 세그먼트의 위치와 방향, 각 세그먼트 간의 관계(예: 관절 사이의 각도 및 상대 위치 또는 방향)를 사용하여 수행된다.[31]

골격 버전(오른쪽)은 효과적으로 손(왼쪽)을 모델링한다. 이는 부피 버전보다 매개변수가 적고 계산하기 쉬워 실시간 제스처 분석 시스템에 적합하다.


골격 모델 사용의 장점은 다음과 같다.[31]

  • 알고리즘이 더 빠르다. 중요한 매개변수만 분석하기 때문이다.
  • 템플릿 데이터베이스에 대한 패턴 매칭이 가능하다.
  • 핵심 포인트를 사용하면 감지 프로그램이 신체의 중요한 부분에 집중할 수 있다.

5. 3. 외형 기반 모델

외형 기반 모델은 신체의 공간적 표현 대신 템플릿 데이터베이스를 사용하여 이미지나 비디오에서 직접 매개변수를 도출한다.[31] 일부는 신체, 특히 손의 변형 가능한 2D 템플릿을 기반으로 한다. 변형 가능한 템플릿은 객체의 윤곽선에 있는 점의 집합으로, 객체의 윤곽선 근사를 위한 보간 노드로 사용된다. 가장 간단한 보간 함수 중 하나는 선형으로, 점 집합, 점 변동성 매개변수 및 외부 변형으로부터 평균 모양을 수행한다. 이러한 템플릿 기반 모델은 주로 손 추적에 사용되지만, 간단한 제스처 분류에도 사용될 수 있다.

이진 실루엣(왼쪽) 또는 윤곽선(오른쪽) 이미지는 외형 기반 알고리즘의 전형적인 입력을 나타낸다. 이들은 다른 손 템플릿과 비교되며, 일치하는 경우 해당 제스처가 추론된다.


외형 기반 모델을 사용한 제스처 감지의 두 번째 접근 방식은 이미지 시퀀스를 제스처 템플릿으로 사용한다. 이 방법의 매개변수는 이미지 자체 또는 이미지에서 파생된 특정 특징이다. 대부분의 경우, 단일(모노스코프) 또는 두 개의(스테레오스코프) 뷰만 사용된다.

5. 4. 근전도(EMG) 기반 모델

근전도(EMG)는 신체의 근육에서 생성되는 전기 신호를 연구하는 학문이다. 팔 근육에서 수신된 데이터를 분류하여 동작을 분류하고, 외부 소프트웨어에 제스처를 입력할 수 있다.[1] 소비자용 EMG 장치는 팔이나 다리 밴드와 같은 비침습적 접근 방식을 허용하며, 블루투스를 통해 연결된다. EMG는 사용자가 입력을 제공하기 위해 카메라를 마주할 필요가 없으므로 시각적 방법보다 유리하며, 더 자유로운 움직임을 가능하게 한다.

6. 도전 과제

제스처 인식 기술은 여러 도전 과제에 직면해 있다. 이미지 기반 제스처 인식은 사용 장비 및 이미지 노이즈에 제한을 받는다. 이미지나 비디오는 조명이 고르지 않거나 동일한 위치에 없을 수 있으며, 배경 물체나 사용자의 특징으로 인해 인식이 어려워질 수 있다.

다양한 구현 방식은 기술의 보편적 사용에 문제를 야기한다. 특정 카메라에 맞춰진 알고리즘이 다른 카메라에서 작동하지 않을 수 있고, 배경 노이즈, 카메라와의 거리, 해상도 및 품질도 인식 정확도에 영향을 미친다.[32][33][34][35][36][37][38][39][40] 스마트폰, 스마트워치와 같은 소비자용 모바일 장치에 제스처 인터페이스를 채택할 때 중요한 과제 중 하나는 사회적 수용성 문제이다.[41] 또한, 서로 다른 장치 하드웨어와 감지 메커니즘은 서로 다른 종류의 인식 가능한 제스처를 지원한다.

6. 1. 기술적 과제

제스처 인식의 정확성과 유용성, 그리고 이를 구현하기 위한 소프트웨어와 관련하여 많은 과제가 존재한다. 이미지 기반 제스처 인식의 경우, 사용되는 장비와 이미지 노이즈에 의해 제약이 발생한다. 이미지나 비디오는 조명이 일정하지 않거나 동일한 위치에 있지 않을 수 있다. 배경의 물체나 사용자의 특징 때문에 인식이 더 어려워질 수도 있다.

이미지 기반 제스처 인식을 위한 다양한 구현 방식 또한 기술의 보편적 사용에 문제를 야기할 수 있다. 예를 들어, 특정 카메라에 맞춰진 알고리즘이 다른 카메라에서는 작동하지 않을 수 있다. 배경 노이즈의 양 또한 추적 및 인식의 어려움을 유발하며, 특히 폐색(부분 또는 전체)이 발생할 때 더욱 그렇다. 또한, 카메라와의 거리, 카메라의 해상도 및 품질도 인식 정확도에 영향을 미친다.[32][33][34][35][36][37][38][39][40]

6. 2. 사회적 수용성

스마트폰, 스마트워치와 같은 소비자용 모바일 장치에 제스처 인터페이스를 채택할 때 중요한 과제 중 하나는 제스처 입력의 사회적 수용성 문제이다.[41] 제스처는 많은 새로운 폼 팩터 컴퓨터에서 빠르고 정확한 입력을 가능하게 하지만, 그 채택과 유용성은 기술적인 요인보다는 사회적인 요인에 의해 제한되는 경우가 많다.[41] 따라서 제스처 입력 방식 설계자는 기술적 고려 사항과 다양한 사회적 맥락에서 사용자가 제스처를 수행하려는 의지를 균형 있게 고려해야 한다.[41] 또한, 서로 다른 장치 하드웨어와 감지 메커니즘은 서로 다른 종류의 인식 가능한 제스처를 지원한다.

6. 2. 1. 모바일 장치

모바일 장치에서 움직임 기반 제스처 인식은 미묘한 움직임을 감지하기 어려울 수 있으며, 제스처의 자연스러움과 사회적 맥락이 수용성에 큰 영향을 미친다.[41] 연구자들은 사용자가 기존 기술과 유사하고, 자연스러운 동작과 비슷하게 느껴지며, 즐거운 미묘한 움직임을 통합한 제스처는 더 쉽게 받아들이는 반면, 이상하게 보이거나 수행하기 불편하고, 의사 소통을 방해하거나 흔치 않은 움직임을 포함하는 제스처는 사용을 거부할 가능성이 높다는 것을 발견했다.[41]

6. 2. 2. 웨어러블 컴퓨터

웨어러블 컴퓨터는 사용 및 상호 작용 위치가 사용자의 신체에서 이루어진다는 점에서 전통적인 모바일 장치와 일반적으로 다르다. 이러한 맥락에서 제스처 인터페이스는 작은 크기로 인해 터치스크린이나 컴퓨터 키보드가 덜 매력적이게 되면서 전통적인 입력 방식보다 선호될 수 있다. 그럼에도 불구하고 제스처 상호 작용과 관련하여 모바일 장치와 동일한 사회적 수용성 장애물을 공유한다. 그러나 웨어러블 컴퓨터가 시야에서 숨겨지거나 의류와 같은 다른 일상적인 물건에 통합될 가능성은 셔츠 칼라를 조정하거나 앞바지 주머니를 비비는 것과 같은 일반적인 의류 상호 작용을 모방할 수 있도록 한다.[42][43]

웨어러블 컴퓨터 상호 작용의 주요 고려 사항은 장치 배치 및 상호 작용 위치이다. 미국과 대한민국에서 수행된 웨어러블 장치 상호 작용에 대한 제3자 태도를 탐구하는 연구에 따르면, 사회적으로 민감한 신체 부위가 다르기 때문에 웨어러블 컴퓨팅 사용에 대한 남성과 여성의 인식에 차이가 있는 것으로 나타났다.[43] 온바디 프로젝션 인터페이스의 사회적 수용성을 조사한 또 다른 연구에서도 유사한 결과가 나타났으며, 두 연구 모두 허리, 사타구니 및 상체(여성의 경우) 주변 부위를 가장 덜 수용 가능하다고, 팔뚝과 손목 주변 부위를 가장 수용 가능하다고 분류했다.[44]

6. 2. 3. 공공 설치물

공공 설치물은 박물관, 미술관, 극장과 같은 공공 장소에서 정보 접근 및 인터랙티브 미디어 표시를 가능하게 한다.[45] 터치 스크린은 공공 디스플레이의 일반적인 입력 방식이지만, 제스처 인터페이스는 위생 개선, 원거리 상호 작용, 검색 가능성 향상 등의 이점을 제공하며, 수행적 상호 작용을 선호할 수도 있다.[42] 공공 디스플레이와의 제스처 상호 작용에서 중요한 고려 사항은 관람객이 있을 가능성 또는 기대가 높다는 점이다.[45]

6. 3. 피로도

수직형 터치 스크린이나 라이트 펜을 사용하면 팔에 피로가 쌓이는 부작용이 있었다. 장시간 사용할 경우 팔에 피로감이나 불편함이 생겼는데, 1980년대 초반 터치 스크린 입력 방식이 인기를 잃고 쇠퇴한 원인이 되었다.[46][47]

연구자들은 팔 피로 부작용을 측정하기 위해 소모 지구력 기술을 개발했다.[48][49]

7. 응용 분야



제스처 인식은 다음과 같은 기능을 갖는다.


  • 더 정확한 인식
  • 높은 안정성
  • 장치 잠금 해제를 위한 시간 절약


제스처 인식은 다음과 같은 여러 분야에서 활용된다.

  • 자동차 부문
  • 가전 제품 부문
  • 대중교통 부문
  • 게임 부문
  • 스마트폰 잠금 해제
  • 방위[52]
  • 홈 오토메이션
  • 수화 자동 번역[53]


제스처 인식은 컴퓨터 비전과 이미지 처리 기술을 사용하여 수행할 수 있다[54]

참조

[1] 논문 Thumbs up, thumbs down: non-verbal human-robot interaction through real-time EMG classification via inductive and supervised transductive transfer learning https://publications[...] Springer Science and Business Media LLC 2020-03-07
[2] 간행물 Wave Like an Egyptian – Accelerometer Based Gesture Recognition for Culture Specific Interactions http://mm-werkstatt.[...] British Computer Society 2007
[3] 뉴스 Patent Landscape Report Hand Gesture Recognition PatSeer Pro https://patseer.com/[...] 2017-11-02
[4] 간행물 Sign language recognition and translation with kinect http://iip.ict.ac.cn[...] IEEE Conf. on AFGR 2013
[5] 간행물 Vision Based Gesture Recognition for Alphabetical Hand Gestures Using the SVM Classifier https://pdfs.semanti[...] International Journal of Computer Science & Engineering Technology (IJCSET). 2012
[6] 간행물 Visual interpretation of hand gestures for human-computer interaction: A review http://www.cs.rutger[...] IEEE Transactions on Pattern Analysis and Machine Intelligence 1997-07
[7] 서적 Computer Vision for Human-Machine Interaction https://books.google[...] Cambridge University Press 1998
[8] 간행물 Vision-Based Gesture Recognition: A Review http://reference.kfu[...] Springer Lecture Notes in Computer Science 1999
[9] 간행물 Multimodal human–computer interaction: A survey http://staff.science[...] Computer Vision and Image Understanding 2007-10
[10] 간행물 "Recognition of Handwriting Gestures" http://www.gamedev.n[...] gamedev.net 2004-01-09
[11] 간행물 "Gesture Recognition Techniques in Handwriting Recognition Application" https://ieeexplore.i[...] Frontiers in Handwriting Recognition 2010-11
[12] 간행물 "Handwritten Gesture Recognition for Gesture Keyboard" http://www.hpl.hp.co[...] Hewlett-Packard Laboratories
[13] 간행물 Taxonomy and Overview of Multi-touch Frameworks: Architecture, Scope, and Features http://vi-c.de/vic/s[...]
[14] 웹사이트 touchless user interface Definition from PC Magazine Encyclopedia https://www.pcmag.co[...] 2017-07-28
[15] 웹사이트 The emerging need for touchless interaction technologies https://www.research[...] 2021-06-30
[16] 논문 Sensible, sensable and desirable: a framework for designing physical interfaces http://www.equator.a[...]
[17] 간행물 A HAND GESTURE INTERFACE DEVICE http://netzspannung.[...]
[18] 간행물 A Robust Hand Tracking and Gesture Recognition Method for Wearable Visual Interfaces and Its Applications https://ieeexplore.i[...] Proceedings of the Third International Conference on Image and Graphics (ICIG'04) 2004
[19] 간행물 An Implementation of Multi-Modal Game Interface Based on PDAs https://ieeexplore.i[...] Fifth International Conference on Software Engineering Research, Management and Applications 2007
[20] 웹사이트 Gestigon Gesture Tracking - TechCrunch Disrupt https://techcrunch.c[...] 2016-10-11
[21] 웹사이트 uSens shows off new tracking sensors that aim to deliver richer experiences for mobile VR https://techcrunch.c[...] 2016-08-29
[22] 논문 Wi-Fi sensing: applications and challenges 2020-03
[23] 간행물 SignWiiver – implementation of sign language technology http://www.tricomsol[...]
[24] 간행물 Gesture Recognition with a Wii Controller http://www.wiigee.co[...] Proceedings of the 2nd international Conference on Tangible and Embedded interaction 2008
[25] 간행물 LiveMove White Paper http://www.ailive.ne[...] 2006
[26] 뉴스 Natural User Interface Employs Sensor Integration. http://electronicdes[...] Electronic Design 2011-09-08
[27] 뉴스 A view to a thrill. http://www.csimagazi[...] Cable & Satellite International 2011-09
[28] 뉴스 Hillcrest Labs rings up $25M D round. https://archive.toda[...] TechJournal South 2008-01-07
[29] 뉴스 Gestural Control in Sound Synthesis. http://www.percussa.[...] Percussa AudioCubes Blog 2012-10-04
[30] 논문 Gesture Recognization & its Applications http://rgdoi.net/10.[...] 2016
[31] 간행물 Visual Interpretation of Hand Gestures for Human-Computer Interaction http://www.cs.rutger[...] IEEE Transactions on Pattern Analysis and Machine Intelligence 1997
[32] 간행물 "Tracking of Multi-state Hand Models Using Particle Filtering and a Hierarchy of Multi-scale Image Features" http://kth.diva-port[...] Springer Lecture Notes in Computer Science 1999
[33] conference Bare-hand human-computer interaction
[34] 간행물 "Hand gesture recognition using multi-scale colour features, hierarchical models and particle filtering" http://kth.diva-port[...] Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition 2002-05
[35] 간행물 "Decomposition of human motion into dynamics-based primitives with application to drawing tasks" http://www.cds.calte[...] Automatica 2003-12
[36] 간행물 A Brief Overview of Hand Gestures used in Wearable Human Computer Interfaces http://www.vision.au[...] Laboratory of Computer Vision and Media Technology, Aalborg University, Denmark 2011-07-19
[37] 간행물 Fast 2D Hand Tracking with Flocks of Features and Multi-Cue Integration http://ilab.cs.ucsb.[...] CVPRW '04. Proceedings Computer Vision and Pattern Recognition Workshop 2008-08-21
[38] 간행물 Hand gesture recognition using depth data Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition 2004-05-17
[39] 간행물 Model-based hand tracking using a hierarchical Bayesian filter https://wayback.arch[...] IEEE Transactions on IEEE Transactions on Pattern Analysis and Machine Intelligence 2006-09
[40] 간행물 Vision-based hand pose estimation: A review http://www.cse.unr.e[...] Computer Vision and Image Understanding 2007-10
[41] 서적 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems ACM 2010
[42] 서적 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems ACM Press 2013
[43] 서적 Proceedings of the 2013 International Symposium on Wearable Computers ACM 2013
[44] 서적 Proceedings of the 2014 conference on Designing interactive systems ACM 2014
[45] 서적 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems https://nottingham-r[...] ACM Press 2005
[46] 웹사이트 Windows 7? No arm in it https://www.zdnet.co[...]
[47] 웹사이트 gorilla arm http://www.catb.org/[...]
[48] 간행물 Consumed Endurance: A Metric to Quantify Arm Fatigue of Mid-Air Interactions http://hci.cs.umanit[...] ACM 2014
[49] 간행물 The Consumed Endurance Workbench: A Tool to Assess Arm Fatigue During Mid-Air Interactions http://hci.cs.umanit[...] ACM 2014
[50] 간행물 Thumbs up, thumbs down: non-verbal human-robot interaction through real-time EMG classification via inductive and supervised transductive transfer learning Springer Science and Business Media LLC 2020-03-07
[51] 간행물 Wave Like an Egyptian – Accelerometer Based Gesture Recognition for Culture Specific Interactions http://mm-werkstatt.[...] British Computer Society 2007
[52] 뉴스 Patent Landscape Report Hand Gesture Recognition PatSeer Pro https://patseer.com/[...] 2017-11-02
[53] 간행물 Sign language recognition and translation with kinect http://iip.ict.ac.cn[...] IEEE Conf. on AFGR 2013
[54] 간행물 Vision Based Gesture Recognition for Alphabetical Hand Gestures Using the SVM Classifier https://pdfs.semanti[...] International Journal of Computer Science & Engineering Technology (IJCSET) 2012
[55] 간행물 Visual interpretation of hand gestures for human-computer interaction: A review http://www.cs.rutger[...] IEEE Transactions on Pattern Analysis and Machine Intelligence 1997-07
[56] 서적 Computer Vision for Human-Machine Interaction https://books.google[...] Cambridge University Press 1998
[57] 간행물 Vision-Based Gesture Recognition: A Review http://reference.kfu[...] Springer Lecture Notes in Computer Science 1999
[58] 간행물 Multimodal human–computer interaction: A survey http://staff.science[...] Computer Vision and Image Understanding 2007-10
[59] 문서 Recognition of Handwriting Gestures http://www.gamedev.n[...] gamedev.net 2004-01-09
[60] 간행물 Gesture Recognition Techniques in Handwriting Recognition Application http://ieeexplore.ie[...] Frontiers in Handwriting Recognition 2010-11
[61] 간행물 Handwritten Gesture Recognition for Gesture Keyboard http://www.hpl.hp.co[...] Hewlett-Packard Laboratories 2008-09-06
[62] 간행물 Taxonomy and Overview of Multi-touch Frameworks: Architecture, Scope and Features http://vi-c.de/vic/s[...] 2011-01-25
[63] 웹사이트 touchless user interface Definition from PC Magazine Encyclopedia https://web.archive.[...] 2017-07-28
[64] 웹사이트 The emerging need for touchless interaction technologies https://www.research[...] 2021-06-30
[65] 간행물 Sensible, sensable and desirable: a framework for designing physical interfaces http://www.equator.a[...]
[66] 간행물 SignWiiver – implementation of sign language technology http://www.tricomsol[...] 2008-12-25
[67] 간행물 Gesture Recognition with a Wii Controller http://www.wiigee.co[...] Proceedings of the 2nd international Conference on Tangible and Embedded interaction 2008
[68] 간행물 LiveMove White Paper http://www.ailive.ne[...] AiLive Inc. 2006
[69] 뉴스 Natural User Interface Employs Sensor Integration. http://electronicdes[...] Electronic Design 2011-09-08
[70] 뉴스 A view to a thrill. http://www.csimagazi[...] Cable & Satellite International 2011-09
[71] 뉴스 Hillcrest Labs rings up $25M D round. https://archive.toda[...] TechJournal South 2008-01-07
[72] 블로그 Gestural Control in Sound Synthesis. http://www.percussa.[...] Percussa AudioCubes Blog 2012-10-04
[73] 저널 Thumbs up, thumbs down: non-verbal human-robot interaction through real-time EMG classification via inductive and supervised transductive transfer learning Springer Science and Business Media LLC 2020-03-07
[74] 문서 Wave Like an Egyptian – Accelerometer Based Gesture Recognition for Culture Specific Interactions http://mm-werkstatt.[...] British Computer Society 2007



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com